Marode Schulen, überfüllte Klassen, erschöpfte Lehrkräfte – Deutschland steckt in der Bildungskrise. Laut dem jährlich erscheinenden Schulbarometer der Robert Bosch Stiftung wissen Lehrkräfte recht genau, was sie brauchen, um einen besseren Unterricht zu machen. Kleinere Klassen oder sanierte Schulgebäude etwa. Ganz oben auf der Liste steht jedoch: mehr Personal.
Statt aber in Lehrkräfte und die Pädagog:innen-Ausbildung zu investieren, setzen einige Länder vermehrt auf sogenannte Künstliche Intelligenz. Die Hersteller von KI-Tools versprechen schnelle Lösungen. Die Programme sollen Lehrer:innen im Arbeitsalltag entlasten, etwa durch Korrekturhilfen oder bei der Bewertung von Schüler:innenleistungen.
So erklärte die Landesschulbehörde Rheinland-Pfalz auf Anfrage der KI-Philosoph:innen Marte Hennigsen und Rainer Mühlhoff, für Lizenzen des KI-Herstellers fobizz bisher pro Jahr 1,75 Millionen Euro auszugeben. Zugleich knappste das Land im Sommer beim dringend benötigten Lehrer:innenachwuchs: In den Ferien bekamen die Referendar:innen kein Geld.
Mit ihren Angeboten rennen deutsche KI-Hersteller wie fobizz, fiete.ai und myTAI offene Türen ein. Denn die Begeisterung für entsprechende Tools ist bei Entscheider:innen im Bildungsbereich sehr groß. Anfang des Jahres verkündete Christine Hauck vom Schulbuchverlag Cornelsen auf der Bildungsmesse didacta: KI könne Lehrkräfte entlasten und die Bildung verbessern.
Dass sich die öffentliche Debatte um den Bildungsnotstand dem Allheilmittel KI zuwendet, hat einen hohen Preis. Denn statt in effektive Maßnahmen zu investieren, verlassen sich Länder und Bildungseinrichtungen auf Tools, die nicht so funktionieren, wie KI-Hersteller es versprechen.
So lautet das ernüchternde Fazit von Mühlhoff von der Universität Osnabrück und Marte Hennigsen von der Universität Maastricht. In ihrem Talk „Chatbots im Schulunterricht!?“ auf dem 38. Chaos Communication Congress in Hamburg nahmen sie die Korrekturhilfe für Lehrer:innen des Unternehmens fobizz unter die Lupe. Aus ihrer Sicht erbringen die KI-Werkzeuge nicht einmal ansatzweise die angepriesene Arbeitserleichterung. Vielmehr müssten Lehrkräfte einen zusätzlichen Aufwand betreiben, wenn sie diese sinnvoll im Unterricht einsetzen wollen.
Korrekturhilfe mit Hilfe von OpenAI
Die Korrekturhilfe ist eines von vielen KI-Produkten, welches das Hamburger IT-Unternehmen auf einer Plattform für Weiterbildungen und KI anbietet. Es wirbt damit, das Angebot speziell von Lehrkräften für Lehrkräfte zu entwickeln. Hinter dem Nutzer:innen-Interface steckt ChatGPT4, das beliebte Chatbot-System des US-amerikanischen Unternehmens OpenAI.
Lehrer:inen können die von Schüler:innen eingereichten Hausaufgaben auf der Plattform hochladen. Sie erhalten dann eine Bewertung des Aufsatzes im PDF-Format, inklusive Feedback in Stichpunkten und einer Benotung.
Mühlhoff und Hennigsen wollten wissen, ob sich das Produkt tatsächlich dafür eignet, Hausaufgaben zu bewerten und damit Lehrkräften Arbeit abzunehmen. Für ihren Test gingen sie niedrigschwellig vor. Sie simulierten zehn Hausaufgaben von Schüler:innen und ließen diese je fünf Mal vom Programm bewerten.
Dabei kamen erschütternde Ergebnisse zutage. Das Programm vergab für mehrere Texte bei jeder Bewertung eine andere Note – in einem Fall für ein und dieselbe Aufgabe die Noten ungenügend, befriedigend und sehr gut. Nur in zwei Fällen blieb sich das Programm in der Benotung treu. Am besten bewertete es die fingierten Hausaufgaben, die Hennigsen und Mühlhoff mit ChatGPT erstellt hatten. Darüber hinaus versagte die Korrekturhilfe in puncto inhaltliche Richtigkeit, sie erkannte Falschbehauptungen nicht. Und die KI merkte in den Texten dort Fehler an, wo tatsächlich keine waren.
Vom Aberglauben der Neutralität
Fobizz inszeniere sich als Start-up und verkenne dabei seine gesellschaftliche Rolle, kritisieren Hennigsen und Mühlhoff. Denn das Unternehmen pflegt nicht nur Geschäftsbeziehungen mit Rheinland-Pfalz, sondern auch mit Bremen, Sachsen, Mecklenburg-Vorpommern und Saarland. Laut Hennigsens Berechnungen kaufe jede vierte Schule in Deutschland KI-Systeme bei fobizz ein.
Damit sei fobizz längst über den Start-up-Status hinaus. Kund:innen verlassen sich auf das Versprechen, wonach die KI die Leistungen von Schüler:innen objektiv bewerte. Gerade jüngere Lehrkräfte würden sich viel von der KI erhoffen, wissen Hennigsen und Mühlhoff aus Gesprächen. Denn der KI fehle es weder an Kondition noch an Motivation.
Der sogenannte automation bias verschärft die Gefahr, dass KI breit genutzt wird, obwohl sie unausgereift ist und Ergebnisse liefert, die hinter den Erwartungen zurückbleibt. Der Begriff beschreibt die Tendenz von Personen, technologischen Lösungen mehr zu vertrauen als menschlichen Fähigkeiten. KI sei letztlich nicht mehr als ein Werkzeug, Symptome zu bekämpfen und auch dafür nur unzureichend geeignet, so Hennigsen und Mühlhoff.
Obendrein geraten Schulen zunehmend in die Abhängigkeit von Tech-Konzernen wie OpenAI. Denn KI-Unternehmen wie fobizz geben hochsensible Daten von Schüler:innen und Lehrkräfte an diese weiter.
„Lehrer:inen können die von Schüler:innen eingereichten Hausaufgaben auf der Plattform hochladen. Sie erhalten dann eine Bewertung des Aufsatzes im PDF-Format, inklusive Feedback in Stichpunkten und einer Benotung.“
Äääähhm… wie bitte?!?!
Es sollte doch eigentlich jedem bekannt sein, dass die Modelle nach wie vor Fehler machen und man ihre Aussagen immer überprüfen sollte.
Wenn man aber einen Aufsatz benoten muss, muss man sich trotzdem überlegen, warum der Schüler das geschrieben hat, was er geschrieben hat.
In dem Fall müsste der Lehrer sich den beim Korrekturlesen also zwangsläufig ohnehin mit dem geschriebenen Aufsatz auseinandersetzen. Zusätzlich müsste er noch überprüfen, ob ChatGPT hier richtig liegt oder vollkommenen Stuss erzählt.
Was für eine Entlastung soll denn das am Ende des Tages sein?
Gleiches gilt für alle Aufgaben, wo individuelle Denkweisen / Meinungen gefragt sind
Vor allem wenn ich lese „Statt aber in Lehrkräfte und die Pädagog:innen-Ausbildung zu investieren, setzen einige Länder vermehrt auf sogenannte Künstliche Intelligenz.“, frage ich mich, ob die Leute, die das entschieden haben
a) ansatzweise verstehen, wie die Modelle funktionieren
b) die Modelle selbst mal bei solchen Dingen genutzt haben
Ich tippe mal bei beidem auf nein.
Richtig. Und es ist ihnen auch egal, denn ihre Klientel kann sich gute Betreuung leisten.
Das gilt praktisch überall, wo „KI“ ohne Rücksicht auf Qualitätsverlust propagiert oder eingesetzt wird: der Qualitätsverlust ist Teil des Ziels.
O tempora, o mores!
Naja, das wird vielleicht wie mit den Gameshows.
„Bleiben Sie bei Note 2 stehen, oder wechseln zur nächsten Tür?“
Wenn nicht der Zonk dahinter steht, hat man die Chance, sich abzuheben!
***
Hat mal jemand überlegt, welchen Unterschide Geschriebenes zu Gelebtem macht? Von wegen wenn wir von Intelligenz sprechen, und mit Internet trainieren… Da könnte es noch einige lustige (potentiell tödliche) Fehlerkategorien geben. Schon mal von der Sonne geblendet worden?
Das Bildungswesen steht vor der Aufgabe, nicht nur den Einsatz von KI-Tools zu bewerten und anzuleiten, sondern auch eine entscheidende Rolle in der Entwicklung zukunftsrelevanter Kompetenzen zu spielen. Der Einsatz von KI in der Bildung darf nicht nur als technologische Unterstützung gesehen werden, sondern muss stets im Kontext der Förderung von kritischem Denken und Future Skills betrachtet werden.
*Kritisches Denken im Umgang mit KI fördern*
Reflexion statt blinder Nutzung: Lehrkräfte und Lernende müssen dazu befähigt werden, die Ergebnisse von KI-Systemen kritisch zu hinterfragen. KI generiert Lösungen, die nicht immer fehlerfrei oder ethisch vertretbar sind. Diese Fähigkeit, zwischen Nutzen und Risiko abzuwägen, ist essenziell.
Bewusstsein für Bias: KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert werden. Schulen und Bildungsinstitutionen sollten Lernende darauf vorbereiten, mögliche Verzerrungen in den Ergebnissen von KI zu erkennen und deren Konsequenzen zu verstehen.
Ethik in der Technologie: Die Integration von KI in den Unterricht sollte immer mit ethischen Diskussionen einhergehen, um die gesellschaftlichen Auswirkungen von Technologie zu beleuchten.
*Future Skills entwickeln*
Digitale Kompetenzen: Lernende müssen verstehen, wie KI funktioniert, wie sie eingesetzt wird und welche Grenzen sie hat. Das schließt grundlegende Programmierkenntnisse und das Wissen über Datensicherheit mit ein.
Problemlösungs- und Innovationsfähigkeit: KI kann repetitive Aufgaben übernehmen, aber kreative und innovative Lösungen entstehen durch Menschen. Das Bildungswesen muss Lernräume schaffen, in denen diese Fähigkeiten gezielt gefördert werden.
Kooperationsfähigkeit in Mensch-KI-Teams: In der Arbeitswelt der Zukunft werden Menschen zunehmend mit KI-Systemen zusammenarbeiten. Lernende sollten darauf vorbereitet sein, KI als Werkzeug effektiv einzusetzen, ohne ihre eigene Entscheidungskompetenz zu verlieren.
Das wäre der einzig richtige Ansatz. Nur müsste dafür in Bildung, Pädagogik und die Infrastruktur der Schulen auch endlich mal investiert werden.
Aber offenbar hofft man sich auch dieses gesellschaftliche Problem durch das Allheilswundermittel KI lösen zu können.
Ein weiteres vorprogrammiertes Scheitern.
„Aber offenbar hofft man sich auch dieses gesellschaftliche Problem durch das Allheilswundermittel KI lösen zu können.“
Nein, man will maximalen Profit und maximale Macht erreichen, und „KI“ ist dafür hilfreich, auch gerade weil Bildung der Massen dabei stört.
„Ein weiteres vorprogrammiertes Scheitern.“
Die sind leider erfolgreich. Die haben nur andere Ziele als Sie.
Siehe USA: Bildung ist eine sehr teure Ware, qualifiziertes Personal wird importiert, das ist billiger und erpressbarer, führt zB Musk bei X vor.
„Der Einsatz von KI in der Bildung darf nicht nur als technologische Unterstützung gesehen werden, sondern muss stets im Kontext der Förderung von kritischem Denken und Future Skills betrachtet werden.“
Man muss auch bedenken, welche Fertigkeiten man lernt. Prompting würde ich eher als Anti-Skill bezeichnen. Bis auf den Teil, sich mit Sachen auseinanderzusetzen, und unvoreingenommen und ohne Scheu zu testen. Das große Aber kommt leider automatisch mit, denn es wird vielerorts bereits Apple/Microsoft/Google gepredigt, was sämtlichen denkbaren Lernzielen zuwiderläuft. Ab wo kann es denn besser werden? Richtig, wie auch in der Verwaltung, gilt hier: Erst Digitalisierung, dann KI.
Die FDP hatte damals den zweiten Satzteil nicht richtig hinbekommen.
„KI kann repetitive Aufgaben übernehmen“
Man müsste nur welche bauen, die das dann auch leisten können. LLMs z.B. bieten sich da qualitativ eigentlich gar nicht unbedingt an. Nichts wäre schlimmer als Fehler zu wiederholen, ohne sie zu bemerken…
„Nichts wäre schlimmer als Fehler zu wiederholen, ohne sie zu bemerken…“
Bei der Euphorie um „KI macht weniger Fehler [bei, als, auch Freitags?] !“, muss man das immer bedenken, auch wenn man Fehlerkorrektursysteme bedenkt, die in Unternehmensprozessen und bei Menschen durchaus eingebaut sind. Unterstützung durch KI sollte hier durchaus angedacht werden, allerdings ist die Schnittstellenfrage nicht geklärt. KI als Ergebnislieferer hat schwerwiegende Nachteile, für Mensch und KI – bauen wir die Schnittstelle so, dass Menschen nicht sinnvoll teilnehmen, haben wir den Salat. Zudem gilt immer zu unterscheiden, welche Sorte KI zum Einsatz kommt, inkkusive Trainingsdaten/Methoden etc. p.p.
Ein klassisches Beispiel für vorsichtige Patienten, wenn Zeit ist, wäre mit Diagnose 1 zu Arzt 2 zu laufen, und nochmal zu fragen. Gegebenenfalls auch ohne Diagnose zu Arzt 2 und mit beiden Diagnosen dann zu Arzt 3. Wie sieht die Fehlerrate hier aus, und wie testet man das? Was ist wenn man bevorzugt Ärzte wählt, die kritisch gegenüber vorgschlagenen Behandlungsmethoden sind? Reduzieren sich die Fehler? Kann „die KI“ das auch?
Bei Notfällen, also bei wenig Zeit, wäre ein Vorschlagssystem interessant. Es geht zwar auf Kosten einiger Menschenleben, aber man würde interessante Daten über Assistenzsysteme sammeln, oder nicht? Kommt eben drauf an, wie man es macht…
Bildung hat auch etwas mit Kreativität und selbstständigem Denken zu tun. Wie soll eine nach Schema F mit Unmengen Daten gefütterte Datenbank die nach Schablone vorgeht (und sich dann auch noch KI nennt) in der Lage sein so etwas benoten zu können?
Die Menschheit rennt mit diesem KI-Hype doch nur wie die Ratten dem sog. Heilsbringer mit der Flöte in den Abgrund hinterher